Dostrajanie (sztuczna inteligencja)

Dostrajanie[1] (ang. fine-tuning) – podejście w uczeniu głębokim do uczenia transferowego, w którym parametry wstępnie wyszkolonego modelu sieci neuronowej są trenowane na nowych danych[2]. Dostrajanie można przeprowadzić w całej sieci neuronowej lub tylko konkretnych warstwach. W drugim przypadku warstwy, które nie są dostrajane nie ulegają zmianie podczas propagacji wstecznej[3].

W przypadku niektórych architektur, takich jak konwolucyjne sieci neuronowe, zazwyczaj zamraża się pierwsze warstwy (najbliższe warstwie wejściowej), ponieważ przechwytują one cechy niższego poziomu, podczas gdy kolejne warstwy często rozróżniają cechy wyższego poziomu, które mogą być bardziej powiązane z zadaniem trenowanego modelu[3][4].

Modele wstępnie wytrenowane na dużych, ogólnych korpusach są zazwyczaj dostrajane przez ponowne wykorzystanie ich parametrów jako punkt startowy i dodanie warstwy specyficznej dla zadania, trenowanej od podstaw[5]. Dostrajanie całego modelu też jest stosowane i często daje lepsze rezultaty ale jest bardziej kosztowne obliczeniowo[6].

Dostrajanie odbywa się zazwyczaj za pomocą uczenia nadzorowanego. To podejście można też połączyć z techniką RLHF, aby wytworzyć modele językowe, takie jak ChatGPT (dostrojona wersja modeli GPT)[7][8].

  1. Włodzimierz Szpringer, Modele podstawowe AI – nowe dylematy platformizacji w gospodarce cyfrowej, „Kwartalnik Nauk o Przedsiębiorstwie”, 75 (1), 2025, s. 5–22, DOI10.33119/KNOP.2025.75.1.1, ISSN 2719-3276 [dostęp 2025-04-15] (pol.).
  2. 14.2. Fine-Tuning — Dive into Deep Learning 1.0.3 documentation [online], d2l.ai [dostęp 2025-04-15].
  3. a b CS231n Deep Learning for Computer Vision [online], cs231n.github.io [dostęp 2025-04-15].
  4. Matthew D. Zeiler, Rob Fergus, Visualizing and Understanding Convolutional Networks [online], arXiv.org, 12 listopada 2013 [dostęp 2025-04-15] (ang.).
  5. Jesse Dodge i inni, Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping, arXiv, 15 lutego 2020, DOI10.48550/arXiv.2002.06305 [dostęp 2025-04-15].
  6. Saket Dingliwal i inni, Prompt Tuning GPT-2 language model for parameter-efficient domain adaptation of ASR systems, arXiv, 21 lipca 2022, DOI10.48550/arXiv.2112.08718 [dostęp 2025-04-15].
  7. Introducing ChatGPT [online], openai.com, 13 marca 2024 [dostęp 2025-04-15] (ang.).
  8. Amelia Glaese i inni, Improving alignment of dialogue agents via targeted human judgements, arXiv, 28 września 2022, DOI10.48550/arXiv.2209.14375 [dostęp 2025-04-15].

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Nelliwinne